Óriási kockázatot vállal, aki vakon megbízik a mesterséges intelligenciában

2025. június 15. 18:03

Kétségkívül hasznos a mindennapokban is a mesterséges intelligencia, ugyanakkor a Mandinernek nyilatkozó szakértők arra figyelmeztetnek, nem szabad készpénznek venni a chatGPT válaszait. Kiemelten igaz ez a jogi és egészséggel kapcsolatos kérdéseknél, mivel ezek kiemelten összetett területek, meghaladják a nagy nyelvi modellek képességeit.

2025. június 15. 18:03
null
Nagy Kristóf

Az emberek 75 százaléka használja egészségügyi kérdések értelmezéséhez a chatGPT-t, vagyis a nagy nyelvi modellen alapuló legismertebb generatív mesterséges intelligencia alkalmazást. A felmérésekből kiderül, hogy az AI válaszait csak a megkérdezettek 30-40 százaléka kezeli kritikusan, míg a legtöbben nem sejtik, hogy adott esetben a program helytelen információkkal szolgál.

Hasznos az AI, de félrevezethet

Ez nem feltétlenül az AI hibája, sok esetben a felhasználók megfogalmazása – a rossz kérdés vagy a kevés információ – miatt adhat rossz válaszokat a chatGPT. A Mandinernek nyilatkozó szakértők ezért óvatosságra intenek az olyan kritikus témák esetén, mint a jog vagy az egészségügy. Kérdésünkre kiemelték, 

jó dolog a mesterséges intelligencia és nem is akarnak senkit sem lebeszélni a használatáról, ám arra figyelmeztetnek: nem árt kritikusan kezelni a válaszokat. 

Arra is felhívták a figyelmet, nincs teljesen megbízható AI-modell, a mesterséges intelligencia jelenleg még nem alkalmas arra, hogy a jogász vagy az orvos helyébe lépjen, noha a jövőben ez megváltozhat.

A chatGPT nem ügyvéd, csak úgy tesz

„Nagyon fontos, hogy a mesterséges intelligencia alapú alkalmazásokat komoly körültekintéssel használjuk és kezeljük, ugyanis akár az ingyenes, akár az előfizetéses verziók is jelentős hiányosságokat mutatnak. Az egyik veszélyes terület, amikor jogi tanácsadást várunk el tőlük, és vakon bízunk a kapott válaszban” – mutatott rá Szabó Imre Szilárd ügyvéd. 

A Munkástanácsok Országos Szövetségének ügyvezető alelnöke szerint a ChatGPT legfrissebb verziója már olyan hatalmas adathalmazokkal dolgozik, amelyek lehetővé teszi, hogy egyre pontosabb válaszokat és információkat gyűjtsön össze. Ezért az egyszerűbb és viszonylag könnyen kezelhető szituációkban megfelelő, logikus és kifejezetten értelmesnek tűnő válaszokat adhat, fokozatosan növelve a felhasználó bizalmát. 

A jogrendszer azonban olyan komplex, amelynek a teljes elemzésére, értelmezésére és a konkrét esetre vonatkozó helyes jogi tanácsadásra nem képes. 

A szakszerű jogi tanácsadás mindig konkrét esetre szabott, figyelembe veszi a segítséget kérő személyes és egyedi körülményeit is, éppen ezért a nagy nyelvi modellek természetüknél, működésüknél fogva sem képesek körültekintő válaszokra, megoldásokra az egyén jogi kérdéseiben. 

„Ha szerencsénk van, legalább a releváns jogszabályokat megtalálja a rendszer, azonban az adott jogszabályon belül az utaló normákat, összefüggéseket, kivételeket, eltérési lehetőségeket, adott esetben háttérjogszabályokat vagy éppen az ítélkezési gyakorlatot már nem képes megfelelően kezelni. Fontos emellett, hogy nem csak a jogszabályokból, de más internetes forrásokból is keresnek információt, tehát akár nem megfelelően ellenőrzött, akár téves, hatálytalan megállapításokat tartalmazó cikkekből, blogbejegyzésekből is. Ez pedig szintén félrevezeti a felhasználót. Egyetemi oktatóként ezt egyre többször tapasztalom, különösen szakdolgozatok bírálata közben” – hívta fel a figyelmet Szabó Imre Szilárd.

A kérdések megfogalmazása nagyban befolyásolja a programok válaszát és az sem mindegy, hogy előtte milyen kérdéseket tettünk fel az adott eszközön. 

Előfordulhat, hogy két különböző eszközön ugyanazt a kérdést feltéve eltérő tanácsokat kapunk. A szoftver ugyanis az adott beszélgetésen belül képes figyelembe venni a korábban feltett kérdéseket, ami nagyban segíti a válaszadást. A működést az teszi hatékonyabbá, hogy képes kezelni a beszélgetés során a felismert mintázatokat – tette hozzá az ügyvéd.

A mesterséges intelligencia nem látja a beteget

„E természetes korlátok viszik tévútra az orvoslásban is a chatGPT-t. Amikor valaki egy orvos rendelőjébe belép és a panaszairól beszél, az orvos nem csak arra figyel, amit a beteg tényszerű adatként közöl, a teljes vizsgálat alatt a pácienst egészében nézi” – magyarázta a Mandinernek Daróczy-Gaál Ágnes pszichiáter, jogász. 

A ChatGPT nem látja, hogy a tőle tanácsot kérő személynek van-e nehézlégzése, az átlagosnál jóval sápadtabb, véreres-e a szeme, vannak-e alacsony véroxigénszintre utaló tünetei, hacsak ezt maga a felhasználó nem közli vele. A páciens pedig gyakran nem említ meg olyan tünetet, amit ő maga nem érez lényegesnek, pedig egyébként a betegségek elkülönítésének szempontjából lényeges lehet, így az egész ChatGPT-diagnosztika tévútra futhat 

– hangsúlyozta a szakember. A ChatGPT-t úgy alkották meg, hogy alapvetően felhasználóbarát legyen, de ne legyen a felhasználó számára túl sok. Ha a felhasználó beír egy tünetet, és megkérdezi, milyen betegségekre utalhat, a program válaszul felsorolja, mik a lehetőségek, azonban nem kezd el differenciáldiagnosztikai szempontból lényeges kérdéseket feltenni a tőle kérdező páciensnek. Mindössze elmondja, hogy a felsorolt tünetek milyen betegségekben szokott előfordulni. 

Rá lehet ugyan venni, hogy kérdezzen végig egy komplex diagnosztikai kérdéssort és valószínűsítse, hogy mely diagnózis milyen valószínűséggel jön szóba. Ahhoz azonban, hogy megfelelően kérdezzünk a chatGPT-től, legalább középfokú egészségügyi szakmai ismeretek szükségesek. 

„Jómagam is tesztelgettem, konkrét páciensek által mutatott tünetekkel, kórlefolyással, vizsgálati eredményekkel, de a válaszai nem voltak konzisztensek. Ha a kérdezés során más tünetre helyeztem kissé nagyobb hangsúlyt, teljesen eltérő betegség irányába terelte a saját diagnózisalkotását” – részletezte saját példáján keresztül a generatív AI-vel kapcsolatos tapasztalatait Daróczy-Gaál Ágnes, aki ezért továbbra is azt tanácsolja, 

akinek panasza van, mindenképpen forduljon szakemberhez. 

„Az átlagember számára csábító, hogy az orvossal való konzultáció megszervezése és kivárása helyett egy azonnali választ találjon a ChatGPT személyében a felmerülő egészségügyi kérdésekre, de alapszintű tájékozódásnál nagyobb fajsúlyú kérdésekben továbbra is azt tudom javasolni, mindenképpen szakemberhez forduljunk” – tette hozzá Daróczy-Gaál Ágnes.

Ezt is ajánljuk a témában

Ezt is ajánljuk a témában

Nyitókép: ANP MAG / ANP via AFP


 

Összesen 17 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
juhus-61-62
2025. június 15. 20:18
a "fókusz csoport" - hála'a jóIstennek - engem csak a napokban ért engem. (havi ...395,HUFért persze a googly playen, de szinte kérdés nélkül, azonnal Dublinból kaptam a számlát) figyu: ezek a legifjabb, a brüsszelm/p-szerű "csúcsértelmiség - gondolom - immár nem a jogi, csupán szociológiai DIPLOMÁra vágyó 1etemista" - csoport/ok azért járnak vidékre (a professzoraik által kényszerített afféle portfóliókötelezett kicsicsicskaként, hogy szó nélkül hagyják az eus jelent. idézetetek a megtekintett videóból: - "MO korrupt" - "itt már még a cigányok sem tudnak megélni" - csupán a segélyekből élnek... Bocsánat, de annyira undorító a - tudattalanul - kifizetett "tagságom", hogy úgy gondoltam, ez is talán érdemi köztéma lehet. Kössz a figyelmet!
pandalala
2025. június 15. 19:32
( Federated learning (Mesterséges Intelligencia) jotudni.hu/lexikon/0001/federated+learning )
pandalala
2025. június 15. 19:24 Szerkesztve
pandalala
2025. június 15. 19:23 Szerkesztve
( Itt van egy jó összefoglaló a "prompt engineering" téma kapcsán xlabs.hu/blog/mi-az-a-prompt-engineering-ertsuk-meg-egy-peldan-keresztul )
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!